Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Vecteur gaussien

    Formulaire de report

    Vecteur gaussien \((X_1,\dots,X_d)\)
    Variable aléatoire à valeur dans \({\Bbb R}^d\) dont toute combinaison linéaire de ses élément suit une Loi normale. $$\forall\lambda_1,\dots,\lambda_d,\quad\sum_{j=1}^d\lambda_jX_j\text{ est gaussienne}$$
    • caractérisation : $${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m_X+\frac12\xi^TK_X\xi\right)$$ (via la Fonction caractéristique, avec \(m_X\) l'Espérance et \(K_X\) la Matrice de covariance, et \(\xi^TK_X\xi=\sum^d_{j,k=1}\xi_j\xi_k\operatorname{cov}(X_j,X_k)\))
    •     
    • on écrit alors \(X\sim\mathcal N_d(m_X,N_X)\)
    • propriété importante : si la Matrice de covariance est diagonale par blocs, alors les blocs sont indépendants
    • si \((X_1,\dots,X_n,Y)\) est un vecteur gaussien centré, alors \({\Bbb E}[Y|X_1,\dots,X_n]\) est la Projection orthogonale (\(L^2\)) de \(Y\) sur \(\operatorname{Vect}\{X_1,\dots,X_n\}\)
    •     
    • donc \(\exists\lambda_1,\dots,\lambda_n\in{\Bbb R}\), \({\Bbb E}[Y|X_1,\dots,X_n]=\sum^n_{j=1}\lambda_jX_j\) : la meilleure approximation de \(Y\) connaissant \(X_1,\dots,X_n\) est une combinaison linéaire de \(X_1,\dots,X_n\)
    •     
    • de plus, \(\forall h:{\Bbb R}^n\to{\Bbb R}\) mesurable, \({\Bbb E}[h(Y)|X_1,\dots,X_n]\) est donnée par : $${\Bbb E}[h(Y)|X_1,\dots,X_n]=\int_{\Bbb R} h(y)q_\sigma\left( Y-\sum^n_{j=1}\lambda_j X_j\right)\,dy\quad\text{ avec }\quad \begin{cases} q_\sigma:z\mapsto\frac1{\sigma\sqrt{2\pi} }e^{-z^2/2\sigma^2}\\ \sigma^2={\Bbb E}[(Y-\sum_{j=1}^n\lambda_jX_j)^2]\end{cases}$$
    • si \(m\in{\Bbb R}^d\) et \(K\) est une Matrice symétrique définie positive, alors on peut construire un vecteur gaussien \(X\sim\mathcal N_d(m,K)\)
    • si \(X\) est un vecteur gaussien, alors sa loi est à densité si et seulement si \(K_X\) est inversible, et dans ce cas, la densité est : $$p(x)=\frac1{(2\pi)^{d/2}\sqrt{\operatorname{det} K_X} }\exp\left(-\frac12(x-m_X)^TK_X^{-1}(x-m_X)\lt \right)$$



    Questions de cours

    START
    Ω Basique (+inversé optionnel)
    Recto: Donner un exemple de vecteur gaussien.
    Verso:

    Bonus:
    Carte inversée ?:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Donner un exemple de vecteur non gaussien dont toutes les composantes suivent une loi normale.
    Verso:

    Bonus:
    Carte inversée ?:
    END
    Montrer que si \(X\) est un vecteur gaussien, alors $${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m_X+\frac12\xi^TK_X\xi\right)$$

    \(\xi\cdot X\) est gaussien (via combinaison linéaire), et on peut avoir ses paramètres.


    Montrer que si \(X\) vérifie $${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m+\frac12\xi^TK\xi\right)$$ alors \(X\) est vecteur gaussien, \(m={\Bbb E}[X]\) et \(K=K_X\).

    On reconnaît à la fonction caractéristique que toute combinaison linéaire d'éléments est gaussienne.


    Démontrer :

    On décompose \(\xi=(\gamma,\eta)\), et on décomposé aussi l'espérance et la variance.

    On peut alors montrer que la fonction caractéristique de \(Z\) est le produit des fonctions caractéristiques de \(X\) et \(Y\), ce qui donne l'indépendance.


    Démontrer :

    On pose la projection orthogonale. L'une des propriétés de caractérisations se traduit alors par une covariance nulle.

    La matrice de covariance est donc diagonale par blocs, ce qui se traduit par

    En décomposant l'espérance, on peut donc annuler un côté, ce qui donne que \(Y\) est bien la projection orthogonale.


    Démontrer :

    On utilise le fait que \(K\) est le carré d'une matrice symétrique positive.

    On pose un vecteur gaussien standard \(Y\) et \(X=CY\).

    \(X\) est alors un vecteur gaussien, d'espérance nulle.

    Et on peut vérifier via \(K_X={\Bbb E}[XX^T]\) que sa Matrice de covariance est bien \(K\).


    Démontrer :

    On peut supposer que les v.a. Sont centrées.

    On peut également supposer que \(X=CY\), avec \(Y\) vecteur gaussien standard et \(C^2=K\).

    Si \(K\) n'est pas inversible, alors \(C\) ne l'est pas non plus.

    \(X\) prends donc ses valeurs dans un sous-espace strict (et donc de mesure \(0\)) \(\to\) il ne peut pas être à densité.

    A l'inverse, si \(K\) est inversible, alors \(C\) l'est aussi, et on peut retrouver sa loi via un Changement de variable.




  • Rétroliens :
    • Loi conditionnelle